Filosofia kohtasi teknologian – kohtasiko teknologia filosofiaa?

Image
Ihmisen ja robotin sormet koskettavat toisiaan.

Filosofia kohtasi teknologian – kohtasiko teknologia filosofiaa?

Filosofeja on kutsuttu mukaan miettimään tekoälylinjauksia eri puolilla maailmaa. Tämä on luonteva ratkaisu, koska etiikan ja yhteiskuntafilosofisten tai ideologisten skenaarioiden tarkastelu on käytännöllisen filosofian ydintä, kirjoittavat Sasu Tarkoma ja Arto Laitinen. Teksti on julkaistu alun perin Tieteessä tapahtuu lehden numerossa 4/2021.
Sasu Tarkoma,
Arto Laitinen
16.9.2021

Teknologia on vuosien saatossa nivoutunut syvälle yhteiskuntaan ja tullut sen perusosaksi. Nyky-yhteiskunta on riippuvainen tekniikasta ja teknologiasta. Teknologia voidaan nähdä muutosvoimana, joka leikkaa yhteiskunnan eri sektorien läpi. Teknologia kehittyy nopeasti ja sen kehitysaskelia on vaikea ennakoida. Joissain kehityksissä filosofiset periaatteet ja analyysi ovat alusta asti vaikuttaneet kehitykseen, toisissa teemoissa niitä on tarkasteltu vasta teknologian kehittymisen jälkeen. Esimerkiksi internet-teknologia on muuttanut maailman osin yllättävillä ja hyvin syvällisillä tavoilla, joihin liittyy perustavia eettisiä ja moraalisia teemoja. 

Filosofit ammattikuntana on nyt laajasti eri puolilla maailmaa kutsuttu mukaan komiteatyöskentelyihin, kun mietitään yhteiskunnallisia tekoälylinjauksia, joita on viime vuosina syntynyt merkittävä määrä. Edellinen vastaava iso kiinnostus filosofiaan oli varmaankin bioetiikan yhteydessä. Samalla filosofit ovat osallistuneet laajemmin tekoälyn ja robotiikan luonteesta käytävään keskusteluun. (Ks. esim. P. Raatikainen, toim.: Tekoäly, ihminen ja yhteiskunta, Gaudeamus, 2021; T. Särkikoski ym., toim.: Robotin hoiviin? Vastapaino 2020.) 

Filosofien kutsuminen mukaan pohtimaan yhteiskunnallisia reaktioita on luonteva ratkaisu, koska etiikan ja yhteiskuntafilosofisten tai ideologisten skenaarioiden tarkastelu on käytännöllisen filosofian ydintä. Filosofi tai eetikko komiteassa on tavallaan symbolinen viesti, että riskit ja huolet otetaan vakavasti ja tunnistetaan, että oletetaan kyseessä olevan poikkeuksellisen isoista asioista, joita sosiaalipolitiikan tutkija tai ministeriön viranhaltija eivät rutiinilla ratkaise osana toimenkuvaansa ja jotka kaipaisivat syvällistä demokraattista keskustelua. Moraalifilosofia tai eettinen harkinta voi tarkastella systemaattisesti, mikä tekee jostain skenaariosta hyvän tai huonon, oikeudenmukaisen tai epäreilun, kun taas yhteiskuntatieteistä, historiasta tai politiikan tutkimuksesta on enemmän apua sen arvioimiseen, millaiset skenaariot ovat tutkitusti todennäköisiä tai epätodennäköisiä. Demokraattinen mielipiteenmuodostus ja päätöksenteko tarvitsevat laaja-alaisen tieteellisen pohjan.

Hyvissäkin käsissä päätöksentekoon voi liittyä niin sanotun ”mustan laatikon” ongelma

On tärkeää tutkia ja keskustella, miten teknologia on vaikuttanut yhteiskuntaan, miten se tulee vaikuttamaan, miten resurssit on järjestetty ja miten resurssien priorisoinnit tehdään. Nykyinen maailma on monimutkainen eikä ole selvää, miten tieto tuotetaan ja kohdennetaan sekä miten tuotteet ja niiden osat liikkuvat ympäri planeettaa. Meillä on rajallinen näkymä siihen, miten teknologia vaikuttaa. Eettisessä keskustelussa on tärkeää ymmärtää kehitettävän teknologian muutosvoimaa sekä lyhyellä että pitkällä tähtäimellä.

Taustalla ovat tekoälyyn liittyvät todelliset riskit ja koetut huolet. Tekoälyteknologiat on koettu paitsi lupaavana mahdollisuutena myös eksistentiaalisena uhkana, nykyisten elämänmuotojen perusteisiin asti menevänä tekijänä. Osa koetuista huolista muistuttaa tieteisfiktiota, kuten niin sanotun singulariteetin pelko, missä tekoälystä jollain tavalla tulisi ihmistä älykkäämpi toimija, joka kääntyy ihmiskuntaa vastaan. Osa on jo melko lailla todellisuutta, kuten tekoälyteknologian käyttö väärissä käsissä aseteknologiassa, ihmisten tarkkailussa ja vähemmistöjen sortamisessa sekä yksityisen datan päätymisessä teknologiajättien käsiin. Hyvissäkin käsissä päätöksentekoon voi liittyä niin sanotun ”mustan laatikon” ongelma, eli se, ettei kyetä antamaan selitystä päätöksen perusteista, jos päätös tehdään tietynlaisen tekoälyteknologian avulla. Näihin huoliin Euroopan unioni on nyt vastaamassa laatimalla vauhdilla tekoälylainsäädäntöä, joka edustaisi eurooppalaisia arvoja ja estäisi kattavasti haitallisia skenaarioita. Toistaiseksi säädösluonnokset ovat kuitenkin olleet ongelmallisia määritelmissään, mitä on se tekoäly, jota säännellään – tässä teknologian tutkimusta tulisi kuunnella tarkemmin. 

Teknologian seurauksena on merkittävää taloudellista hyvinvointia, toimivia ja turvallisia järjestelmiä, terveyttä sekä hyvinvointia. Teknologiasta voi aiheutua myös tunnistettavissa olevia ja vaikeasti ennakoitavia haittoja, kuten yllättäviä vaikutuksia yhteiskunnan toimintaan ja kestävyyteen. Kaikkiaan älyteknologiaan liittyy isoja lupauksia sekä laaja kirjo uhkia ja pelkoja. Toteutuvatko teknologian hyvät vai huonot skenaariot, riippuu ratkaisevasti yhteiskunnista, politiikasta, rakenteista, jotka eivät ole teknologiaspesifejä, kuten vaikkapa globaali kapitalismi tai globaali geopolitiikka tai hyvinvointivaltiot. Erityisesti yhteiskuntafilosofisia, puoluekenttää oletettavasti jakavia ongelmia ovat suhtautuminen työn ja omistamisen merkityksen muuttumiseen automaation kasvaessa tai kysymys vastuiden jaosta yksityisten toimijoiden ja julkisen vallan kesken. 

Vaikka yhteiskunnan rakenteet eivät ole teknologiaspesifejä, teknologia saattaa silti vaikuttaa niihin. Nykytilanteessa olemme saattaneet jo menettää vaikutusmahdollisuuksia valintoihin mikro- ja makrotasoilla. Emme voi täysin luottaa siihen tietoon, mitä saamme tietoverkoista. Data ja datasta johdettu tieto ovat keskittyneet globaalisti muutamalle toimijalle – voidaankin kysyä, heikentääkö tämä kehityskulku demokratiaa. Onko internetin, data-analyysin ja tekoälyn mahdollistama varallisuus jakautunut oikeudenmukaisesti?

Lopulta vastuun kehityskuluista – millaista tekoälyä halutaan – on ja tulee olla demokraattinen, kaikilla kansalaisilla.

Teknologia mahdollistaa paljon, mutta se ei välttämättä ole kaikkien käytettävissä ja voi rajoittaa ja ohjata harhaan, kuten olemme huomanneet valeinformaation ja haitallisen markkinoinnin lisääntyessä. Esimerkiksi vain 60 % maapallon väestöstä on internetin piirissä. Tämä luo epätasa-arvoa, kun nojaamme entistä enemmän digitaalisiin palveluihin. Covid-19-kriisin aikana digitaalisten terveyspalveluiden käyttö on kasvanut, mutta tavoittavatko nämä palvelut kaikki? Tarvitaan toimenpiteitä, joilla teknologian mahdollisuudet saadaan kaikkien ulottuville. Tämä peilautuu myös oppimiseen: tarvitaan jatkuvaa kouluttautumista. 

Teknologia liittyy olennaisesti tietoon ja osaamiseen sekä yhä enenevässä määrin makro- ja mikrotason päätösten tekemiseen ja rajatussa kontekstissa päätöksenteon automatisointiin. Teknologia vaikuttaa olennaisesti ihmisten valintoihin. Nykyisessä ympäristössä ei ole helppoa ymmärtää valintoihin liittyviä ketjuja. Tästä seuraakin haaste, miten tehdä eettisesti hyviä valintoja monimutkaisessa ympäristössä ja kysymyksenasettelussa. 

Yksi tapa kehystää tekoälyn uhkia ja lupauksia on suhteuttaa niitä muihin laajoina pidettyihin uhkiin ja niihin reagointiin: on onnistumistarinoita, esimerkiksi otsonikatoon tai geeniteknologiaan on onnistuttu reagoimaan ja pahimmat uhkakuvat eivät ole toteutuneet, samoin aivan köyhimpien ihmisten globaali köyhyys on tilastojen mukaan parantunut, eli joidenkin ilmiöiden osalta on aihetta optimismiin. Sen sijaan ilmastonmuutos, biodiversiteetin romahtaminen, globaali eriarvoisuus ja köyhyysrajalla elävien määrä ovat valtavan mittaluokan haasteita, joiden suhteen optimismiin on vähemmän aihetta. Tekoälyteknologia voi aivan hyvin osoittautua geenimanipulaation kaltaiseksi sinänsä todelliseksi riskiksi ja koetuksi uhkaksi, joka kuitenkin kansainvälisesti ja kansallisin ratkaisuin välttää pahimmat kehityskulut. Toisaalta ei ilahduta, jos ilmaston ja luonnon tila alkavat romahduttaa inhimillisiä yhteiskuntia, eli tekoälynkin tulevaisuutta täytyy tarkastella yleisten kestävyyskysymysten kontekstissa. 

Lähitulevaisuudessa tekoäly nivoutuu osaksi ICT-infrastruktuuria, sitä on joka puolella ja emme näe sitä. Siksi on erittäin tärkeää, että näillä järjestelmillä on vahva eettinen pohja ja voimme ymmärtää, miten ne toimivat ja vaikuttavat meidän toimintaamme ja valintoihimme. 

Lopulta vastuun kehityskuluista – millaista tekoälyä halutaan – on ja tulee olla demokraattinen, kaikilla kansalaisilla. Insinöörit osaavat vastata teknologiaa koskeviin kysymyksiin; yhteiskuntatieteilijät osaavat kertoa asioiden rakenteellisista riippuvuussuhteista ja tendensseistä; filosofinen etiikka osaa artikuloida, pukea sanoiksi eettisiä näkemyksiä, mutta lopulta vastaukset ovat demokraattisesti päätettäviä, ja ylin valta pitää olla kansalaisilla. Erityisen tärkeää on saada erilaisten vähemmistöjen äänet kuulumaan tässä päätöksenteossa. 

Niin teknologiseen ajatteluun kuin filosofiseen teorianmuodostukseenkin toisinaan liitettävän ”solutionismin” ongelma on ajatella, että on vain yksi paras ratkaisu, kun monesti täytyy tunnustaa erimielisyyksien merkitys. Erimielisyydet eivät ole näennäisiä, ja vähemmistöjen äänille sensitiivinen demokratia on paras tapa tehdä päätöksiä erimielisyyksien vallitessa. Pragmatistinen filosofia voi olla eräs hyvä kehystys: elämme elämänongelmien kanssa ja ratkaisemme niitä, synnyttääksemme samalla uusia.

Kuvan lähde: Unsplash

Sasu Tarkoma oli kirjoittamisen aikaan tietojenkäsittelytieteen professori ja osastonjohtaja Helsingin yliopistossa ja johti Helsinki Centre for Data Science (HiDATA) -yksikköä. Tarkoma on tutkinut mm. yhteiskunnan hyödyntämän ICT-infrastruktuurin suunnittelua, resilienssiä sekä suojaamista. Tarkoma toimii Helsingin yliopiston matemaattis-luonnontieteellisen tiedekunnan dekaanina.
Arto Laitinen on filosofian professori Tampereen yliopistossa. Hänen erikoisalojaan ovat poliittinen filosofia, yhteiskuntafilosofia, inhimillisen toiminnan luonne, sosiaalinen ontologia sekä etiikka ja metaetiikka.

Kirjallisuus

Athey, S., Beyond Prediction: Using Big Data for Policy Problems. Science. 3.2.2017, 335 (6324), 483–485.
European Commission. Proposal for a Regulation laying down har-monised rules on artificial intelligence (Artificial Intelligence Act). Julkaistu 21.4.2021.
Raatikainen P. (toim.), Tekoäly, ihminen ja yhteiskunta. Gaudeamus 2021.
Särkikoski, T., Turja, T. ja Parviainen, J. (toim.), Robotin hoiviin? Vastapaino 2020.